Introducción

La Óptica Geométrica (OG) proporciona herramientas muy útiles para analizar los sistemas ópticos. Sin embargo, el modelo de propagación de la luz por medio de rayos no incluye los efectos debidos al carácter ondulatorio de la luz. En particular, la OG predice para un sistema estigmático que la imagen de un punto O localizado en el plano objeto es otro punto O' situado en el plano imagen. Esta imagen no se corresponde exactamente con la realidad. En sistemas ópticos perfectos (libres de aberraciones), se encuentra que la imagen de un punto es una mancha extensa, debido a la difracción que sufre la onda luminosa. Este efecto sucede siempre que la luz atraviesa un sistema óptico que obstruye parcialmente los frentes de onda debido a la presencia de diafragmas o por el propio tamaño finito de las lentes.

El ejemplo más sencillo de difracción es el paso de la luz a través de una apertura circular. En este caso, se puede apreciar en una pantalla situada detrás de la lente una mancha circular compuesta
por diferentes anillos, y denominada mancha de Airy. El ángulo subtendido por el primer mínimo de irradiancia es donde D es el diámetero de la apertura y $\lambda$ es la longitud de onda de la luz. Debido al uso generalizado de lentes y diafragmas circulares, esta figura aparecerá como imagen O' de un punto objeto O en un sistema libre de aberraciones, alejándose por tanto de las predicciones de la OG y limitando la resolución de dos puntos objeto muy cercanos entre sí.

Este caso representativo permite mostrar que la difracción va a jugar un papel importante en la formación de la imagen. Cuando tenemos en cuenta estos efectos en el cálculo de la imagen dada por un sistema óptico hablamos de teoría difraccional de la imagen.

Al analizar la formación de la imagen de objetos extensos, se pueden seguir dos enfoques alternativos:

  1. La imagen del objeto extenso está formada por la composición de las imágenes de cada uno de los puntos que forman el objeto. En este enfoque, el elemento fundamental que nos permite obtener la imagen global dada por el sistema es la imagen de un único punto objeto. A esta imagen se le denomina Función de Dispersión de Punto (PSF por sus siglas en inglés) Sabiendo esta información, podemos reconstruir toda la imagen.

  2. El objeto extenso puede descomponerse en tramas o redes sinusoidales de distinto periodo y distinta orientación. La imagen resulta de la composición de todas las imágenes correspondientes a cada una de estas tramas. O dicho de otro modo, se analiza la respuesta del sistema en el espacio de frecuencias. Este enfoque nos llevará a definir la Función de Transferencia Óptica (OTF por sus siglas en inglés), la Función de Transferencia de Modulación (MTF) y la Función de Transferencia de Fase (PTF).

Función de Dispersión de Punto (PSF)

La Función de Dispersión de Punto o Point Spread Function (PSF) de un sistema óptico proporciona la imagen de un objeto puntual dada por dicho sistema. Sabiendo qué imagen obtenemos de un único punto, podemos deducir la imagen global de un objeto extenso. La deducción de la irradiancia en la imagen que obtenemos al considerar un objeto puntual no es complicada y se puede consultar en libros más especializados como por ejemplo Introduction to Fourier Optics de Joseph W. Goodman.

El resultado principal es que la Función de Dispersión de Punto es proporcional al cuadrado de la transformada de Fourier de la función pupila de nuestro sistema óptico. Es decir,

$$PSF(x,y) \propto |FT[P(x,y)]|^2$$

donde la función púpila, para el caso de una única lente toma el valor 1 dentro de la lente, y 0 fuera de ella. Esta operación nos da para este caso que la PSF es la función de Airy, la cual ya es conocida dentro del marco de la difracción producida por una abertura circular.

Una consecuencia de lo mostrado anteriormente es que la difracción impone un límite de resolución último para los sistemas ópticos. Incluso en un sistema completamente libre de aberraciones, la imagen de un punto no es un punto, sino una mancha más o menos extensa, dependiendo del diámetro de la lente. Cuando las imágenes de dos puntos muy cercanos se solapen, no podrán distinguirse, existiendo un ángulo mínimo de resolución para discriminar dos puntos objeto puntuales. El criterio más usado para decidir si dos puntos próximos son resolubles por un sistema óptico es el denominado criterio de Rayleigh.

Si en vez de un objeto puntual tenemos un objeto extenso, cada punto del objeto dará lugar en la imagen a una mancha de difracción. Lo podemos interpretar como si cada punto de la imagen dada por la Óptica Geométrica se sustituyera por la PSF del sistema, resultando por tanto en un detrimento de la calidad de la imagen.

Si el objeto lo representamos por su distribución de irradiancia O(x,y), la irradiancia en un punto del plano imagen I(u,v) se obtendrá sumando la contribución de todas las imágenes de cada uno de los puntos del objeto. Al considerar iluminación incoherente, esta suma se realiza sobre las irradiancias resultantes de la imagen de cada punto del plano de observación.

$$I(u,v) = O(x_0,y_0)PSF(u - x_0, v -y_0) + O(x_1,y_1)PSF(u - x_1, v -y_1) + \ldots $$

o lo que es lo mismo, y dado que la distribución de irradiancia es una función contínua,

$$I(u,v) = \int \int O(x,y) PSF(u-x, v-y)dxdy$$

a esta operación se le denomina convolución. Por tanto, dada la PSF de un sistema óptico, podemos hallar la imagen de cualquier objeto extenso.

Función de Transferencia de Modulación (MTF)

Podemos caracterizar un sistema óptico no solo por la imagen dada de un objeto puntual, sino analizando cómo se transmiten las diferentes frecuencias espaciales a través del sistema. Si conocemos esta información, y calculamos la descomposición en frecuencias del objeto extenso O(x,y) (mediante su transformada de Fourier), podemos obtener también su imagen. Para entender este enfoque, veamos qué ocurre con la imagen dada por un sistema óptico de un objeto sinusoidal, cuya irradiancia se representa de la siguiente forma,

$$O(x,y) = 1+m \cos ( 2 \pi ( ax+by ) )$$

donde $m\le 1$ . Este factor representa la amplitud de la modulación, o lo que es lo mismo, el contraste del objeto, definido por,

$$C_{objeto} = \frac{O_{max} - O_{min}}{O_{max} + O_{min}}$$

Por otro lado, a y b son las frecuencias espaciales en las direcciones del eje X y eje Y respectivamente. La frecuencia total será $\sqrt{a^2 +b^2}$. La imagen predicha por la OG de este objeto consistirá en la misma función afectada únicamente por el factor de aumento del sistema. Si consideramos los efectos de difracción, la imagen vendrá dada por la convolución de la PSF del sistema con la función O(x,y),

$$I(u,v)=\int \int dxdy [1+ \frac{C_{objeto}}{2} \exp ( i 2 \pi ( ax+by ) )+ \frac{C_{objeto}}{2} \exp (−i 2 \pi ( ax+by ) )] PSF(u−x,v−y)$$

Si realizamos el cambio de variable $\chi=u−x$,$d\chi=−dx$ y $\psi=v− y$,$d\psi=−dy$ , considerando que la PSF se encuentra normalizada a área unidad y reagrupando algunos términos, obtenemos finalmente la expresión,

$$I(u,v)=1+ \frac{C_{objeto}}{2} \exp ( i2\pi ( au+bv ) )\int \int d\chi d\psi PSF (\chi,\psi ) \exp(−i2\pi ( a\chi+b\psi )) +\ldots + \frac{C_{objeto}}{2} \exp ( −i ( 2 \pi (au+bv ) )∫∫ d\chi d\psi PSF(\chi,\psi ) exp ( i2\pi ( a\chi+b\psi ) )$$

En la primera parte de esta expresión, podemos fijarnos que tenemos la transformada de Fourier de la PSF del sistema. A esta función se le denomina Función de Transferencia Óptica (OTF). En nuestro caso, dicha función está evaluada en las frecuencias espaciales a y b. La segunda parte de la expresión muestra el complejo conjugado de la OTF, ya que esta función es una función compleja. Si la escribimos separando su módulo y su fase

$$OTF=∣OTF∣\exp( i\Phi_{OTF} )$$

la ecuación anterior queda,

$$I(u,v)= 1 + \frac{C_{objeto}}{2} \exp ( i2\pi (au+bv))∣OTF∣ \exp( i\Phi_{OTF} ) + \frac{C_{objeto}}{2} \exp(−i2 \pi(au+bv))∣OTF∣\exp(−i\Phi_{OTF})$$

La cual se puede reescribir finalmente como,

$$I(u,v)=1 +C_{objeto} ∣OTF(a,b)∣ \cos(2\pi(au+bv) +\Phi_{OTF})$$

El resultado anterior nos muestra que la imagen de un objeto cosenoidal vuelve a ser una función coseno. El módulo de la OTF modifica el contraste de la imagen, que pasa a ser $C_{imagen} = C_{objeto}∣OTF∣$ mientras que la fase de la OTF produce un corrimiento de la fase del objeto. Al módulo de la OTF se le denomina Función de Transferencia de Modulación (MTF), y nos da información de cómo el sistema óptico modifica el contraste de la imagen en función de la frecuencia espacial. Por otro lado, a la fase se le denomina Función de Transferencia de Fase (PTF), y nos da cómo se modifica la fase del objeto, es decir, cómo se desplaza la imágen con respecto al objeto.

En la figura a continuación se muestra el efecto de dos MTF distintas sobre la calidad de la imagen. Hay que tener en cuenta que la OTF y la PSF son dos formas distintas de describir un mismo proceso, la formación de la imagen por medio de un sistema óptico. Una PSF más ancha llevará consigo una MTF más estrecha y por tanto una frecuencia de corte menor. Es decir, el sistema será incapaz de reproducir las frecuencias más altas, asociadas a los detalles de la imagen.

Aberraciones y polinomios de Zernike

En el anterior desarrollo se ha asumido que si el objeto O es un punto ideal, el frente de ondas emergente de la pupila de salida del sistema optico es un frente de ondas esferico que converge en el punto imagen O' predicho por la OG. En este caso se dice que el sistema esta únicamente limitado por la difraccion. Sin embargo, la presencia de aberraciones puede modificar enormemente esta descripcion, y por tanto la PSF y la OTF del sistema.

Cabe preguntarse pues como podemos tratar las aberraciones dentro de la teoria difraccional de la imagen. Es decir, como analizar las aberraciones incluyendo la naturaleza ondulatoria de la luz. Si, como hemos comentado, para un sistema perfecto en presencia de un objeto puntual el frente de ondas emergente es una onda esférica, en presencia de aberraciones el frente de ondas se alejara de esta forma ideal. De este modo, podemos caracterizar las aberraciones del sistema por medio de una función W(x,y) que nos dé la separacion en todo punto de la pupila de salida entre el frente de ondas real y el frente de ondas ideal esférico. Concretamente, W(x,y) mide la diferencia en camino óptico entre un rayo que pasa por un punto (x,y) de la pupila de salida del sistema y el rayo paraxial que pasa por ese mismo punto de la pupila de salida (vease figura).

Esta diferencia de camino optico se traducira en una diferencia de fase entre el frente de ondas real y el ideal $\phi=i k W(x,y)$. Podemos por tanto definir una función pupila generalizada que incluya el tamaño y caracteristicas de la pupila de salida, así como esta fase adicional,

$$P_{Gen}(x,y) = P(x,y) \exp \left( ik W(x,y) \right)$$

De este modo todas las expresiones deducidas anteriormente siguen siendo validas sustituyendo la función pupila P(x,y) por la función pupila generalizada P$_{Gen}$(x,y), la cual es una magnitud compleja.

Una vez visto cómo introducir las aberraciones en la teoría difraccional de la imagen tenemos que describir la función de aberración W(x,y) así como introducir diferentes magnitudes que nos permitan medir la calidad de la imagen formada por un sistema. Existen diferentes métricas para cuantificar la calidad de imagen de un sistema óptico. Quizás la más sencilla sea aquella que mide en múltiplos de la longitud de onda la mayor separación entre el frente de ondas aberrado y el ideal. Sin embargo, aunque simple, esta métrica resulta de limitada utilidad al dar poca información del frente de ondas real. Por ejemplo un pequeño defecto puede dar lugar a un valor alto de esta separacion, mientras que su efecto sobre la imagen será muy limitado. En la presente práctica vamos a explorar dos métricas ampliamente utilizadas, la dispersión cuadratica media (RMS) del frente de onda y la razón de Strehl.

RMS

La dispersión cuadratica media $\sigma$ da una medida global de la aberración de onda. En efecto, su expresión es la siguiente,

$$\sigma^2= < W^2(\rho,\theta) − <W(\rho,\theta)>^2 > = \frac{1}{A} \int \int |W(\rho,\theta) − <W(\rho,\theta)>^2| d^2 \rho$$

Como vemos, utiliza los valores de la función aberración en todo punto. Esta magnitud nos da una medida estadítica de la distancia al frente de ondas ideal.

Razón de Strehl

La razón de Strehl proporciona una métrica de la calidad de la imagen basada en la comparación entre la imagen obtenida por el sistema real y la que se obtendría teóricamente en ausencia de aberraciones. Se define por el cociente entre el máximo de la PSF del sistema con aberraciones y el máximo de la PSF del mismo sistema pero en ausencia de aberraciones. Es decir,

$$Strehl = \frac{max(PSF_{real})}{max(PSF_{ideal})}$$

En el caso en que las aberraciones del sistema no degraden mucho la imagen, se puede demostrar que ambas magnitudes están relacionadas por la expresion,

$$Strehl= \exp [−( 2 \pi RMS / \lambda )^2 ]$$

Polinomios de Zernike

La descripcion de la función W(x,y) se realiza normalmente mediante una expansion en serie de polinomios, cada uno de los cuales se atribuye a un tipo de aberración. Debido a la simetría circular de la mayoria de los sistemas ópticos usualmente estos polinomios se expresan en coordenadas polares ($\rho, \theta$) . Además, y con vistas a caracterizar la calidad óptica de la imagen, resulta conveniente utilizar una base de polinomios en la cual el cálculo de las métricas anteriormente vistas fuera sencillo. Estas condiciones se cumplen para los polinomios de Zernike.

Aunque la expresión completa puede parecer difícil (vease por ejemplo en esta página), su forma final no lo es. En la Tabla que se presenta a continuación se puede ver que expresiones toman, mientras que la figura mostrada en esta sección nos permite ver las superficies que definen.

**j** **n** **m** **Expresión Zernike** **Tipo de aberración**
0 0 0 1 Término constante
1 1 -1 $2 \rho \sin(\theta)$ Tilt
2 1 1 $2 \rho \cos(\theta)$ Tilt
3 2 -2 $\sqrt{6}\rho^2 \sin(2 \theta)$ Astigmatismo
4 2 0 $\sqrt{3}(2\rho^2 -1)$ Desenfoque
5 2 2 $\sqrt{6}\rho^2 \cos(2 \theta)$ Astigmatismo
6 3 -3 $\sqrt{8}\rho^3 \sin(3 \theta)$ Trefoil
7 3 -1 $\sqrt{8}(3\rho^3 - 2\rho) \sin(\theta)$ Coma
8 3 1 $\sqrt{8}(3\rho^3 - 2\rho) \cos(\theta)$ Coma
9 3 3 $\sqrt{8}\rho^3 \cos(3 \theta)$ Trefoil
10 4 -4 $\sqrt{10}\rho^4 \sin(4\theta)$ Quadrafoil
11 4 -2 $\sqrt{10}(4\rho^4 - 3\rho^2) \sin(2\theta)$ Astigamtismo secundario
12 4 0 $\sqrt{5}(6\rho^4 - 6\rho^2 +1)$ Esférica
13 4 2 $\sqrt{10}(4\rho^4 - 3\rho^2) \cos(2\theta)$ Astigmatismo secundario
14 4 4 $\sqrt{10}\rho^4 \cos(4\theta)$ Quadrafoil

Aparte de con los valores de n y m, los polinomios de Zernike se pueden denotar únicamente con un subindice j. La relacion entre j y el par (n,m) viene dada por la siguiente expresion,

$$j = \frac{n(n+2) + m}{2}$$

Estos polinomios forman una base completa ortogonal en el círculo unidad. Esto quiere decir que cualquier función en el plano puede ser desarrollada como una suma de polinomios de Zernike. Además, su media es nula y su varianza ( $\sigma^2$) es igual a 1. Estas dos últimas propiedades tienen como consecuencia que el cálculo de la RMS resulte muy sencillo con estos polinomios. En efecto se puede demostrar que si la función aberración $W(\rho,\theta)$ tiene un desarrollo del tipo,

$$ W(\rho,\theta)= c_0 Z_0 + c_1 Z_1 +c_2 Z_2 + \ldots = \sum_i c_i Z_i$$

el cálculo de la RMS vendrá dado únicamente por la expresión, $RMS= \sqrt{\sum_i c_i^2}$.

En el desarrollo de $W(\rho,\theta)$, los coeficientes $c_i$ tienen unidades de longitud y se denominan coeficientes de aberración.

Para saber más:

Página de la Universidad de Standford sobre Polinomios de Zernike

Página de Wofram Mathworld sobre las propiedades de los Polinomios de Zernike


In [0]: